Aller au contenu principal
Fermer

Les gouvernements et les entreprises devraient consacrer plus d'argent à la sécurité de l'IA, selon d'éminents chercheurs
information fournie par Reuters 24/10/2023 à 08:49

(Correction pour indiquer que les chercheurs ont écrit un article et non une lettre dans les paragraphes 1-3 et 7) par Supantha Mukherjee

Les entreprises d'intelligence artificielle et les gouvernements devraient consacrer au moins un tiers de leurs fonds de recherche et de développement en matière d'IA à la sécurité et à l'utilisation éthique des systèmes, ont déclaré d'éminents chercheurs en IA dans un article publié mardi.

Ledocument, publié une semaine avant le sommet international sur la sécurité de l'IA à Londres, énumère les mesures que les gouvernements et les entreprises devraient prendre pour faire face aux risques liés à l'IA.

"Les gouvernements devraient également exiger que les entreprises soient légalement responsables des dommages causés par leurs systèmes d'IA d'avant-garde qui peuvent être raisonnablement prévus et évités", selon ledocument rédigé par trois lauréats du prix Turing, un lauréat du prix Nobel et plus d'une douzaine d'universitaires de haut niveau spécialisés dans l'IA.

À l'heure actuelle, il n'existe pas de réglementation générale sur la sécurité de l'IA, et la première série de textes législatifs de l'Union européenne n'est pas encore entrée en vigueur, car les législateurs doivent encore se mettre d'accord sur plusieurs points .

"Les modèles d'IA les plus récents sont trop puissants et trop importants pour qu'on les laisse se développer sans contrôle démocratique", a déclaré Yoshua Bengio, l'une des trois personnes connues sous le nom de parrain de l'IA.

" (investissements dans la sécurité de l'IA) doit se faire rapidement, car l'IA progresse beaucoup plus vite que les précautions prises", a-t-il ajouté.

Parmi les auteurs figurent Geoffrey Hinton, Andrew Yao, Daniel Kahneman, Dawn Song et Yuval Noah Harari.

Depuis le lancement des modèles d'IA générative d'OpenAI, des universitaires de renom et des directeur général éminents tels qu'Elon Musk ont mis en garde contre les risques liés à l'IA, appelant même à une pause de six mois dans le développement de systèmes d'IA puissants.

Certaines entreprises se sont opposées à en affirmant qu'elles seraient confrontées à des coûts de mise en conformité élevés et à des risques de responsabilité disproportionnés.

"Les entreprises se plaindront qu'il est trop difficile de se conformer aux réglementations, que les réglementations étouffent l'innovation, mais c'est ridicule", a déclaré l'informaticien britannique Stuart Russell.

"Il y a plus de réglementations sur les sandwicheries que sur les entreprises d'IA

2 commentaires

  • 24 octobre 15:35

    Le "truc" nous a déjà échappé... Prévoir au démarrage des verrous pour sécuriser le système et l'encadrer aurait été plus judicieux ! Maintenant qui se soucie réellement du problème et qui va ou veut payer ?


Signaler le commentaire

Fermer

A lire aussi

Pages les plus populaires